1) 每日學習重點概述(精簡版,Day1 → Day30)
-
Day 1:設定環境與學習目標;安裝 VSCode、Python、Docker、註冊 LLM。
-
Day 2:掌握 OWASP Top10 要點與簡易檢測步驟。
-
Day 3:TCP/IP、HTTP、DNS 基礎;用 tcpdump 抓本機 HTTP 封包並解析。
-
Day 4:Linux 基礎命令、檔案權限、網路檢查(ss/netstat、tcpdump)。
-
Day 5:Web 漏洞 — 反射型 XSS 實作與定位(DevTools)。
-
Day 6:建立本地脆弱 lab(Flask + Docker),綁定 localhost 測試。
-
Day 7:安全倫理與 Rules of Engagement(ROE),測試前後快照流程。
-
Day 8:學會把 CTF 題目結構化成高品質 prompt,與 LLM 互動流程。
-
Day 9:XSS / SQLi / CSRF 三大 Web 漏洞概念與 lab 測試。
-
Day10:Web 題實作並用 AI 校正漏洞報告段落。
-
Day11:逆向工程入門(靜態分析工具:strings、objdump、Ghidra)。
-
Day12:靜態分析實作:取得 binary hash、strings、反匯編片段。
-
Day13:動態分析(隔離 VM)— strace / ltrace / tcpdump 捕證實作。
-
Day14:用 Python 寫簡易自動化安全檢測腳本(requests、socket)。
-
Day15:Pwn / Buffer Overflow 概念與基礎實作(gdb + pwntools PoC)。
-
Day16:密碼學基礎(SHA/AES/RSA)與 OpenSSL 實作。
-
Day17:Crypto CTF 練習(凱薩、替換、基礎 RSA 破解)。
-
Day18:日誌解析實作(Python log parser)與偵測規則草案。
-
Day19:AI 自動化資安輔助工具實驗(LLM + Python pipeline)。
-
Day20:惡意程式樣本靜態分析入門(strings、objdump、API 列舉)。
-
Day21:威脅情報(CVE / APT)摘要與 IOC 擷取練習。
-
Day22:SQL Injection 自動化測試(sqlmap 在 lab 的使用)。
-
Day23:日誌告警與偵測規則(SIEM/EDR 規則撰寫與測試)。
-
Day24:惡意程式靜態分析深化(API 與可疑字串判讀)。
-
Day25:生成式 AI 風險與防護(幻覺、資料外洩、危險代碼緩解)。
-
Day26:AI 與資安工具整合(pipeline 設計:log → IOC → LLM 分析)。
-
Day27:AI 輔助 Web 漏洞掃描與分析(payload 測試與 AI 標註)。
-
Day28:AI + Python 自動化腳本實作(log parser → report.json)。
-
Day29:成果彙整與報告草擬,將資料交給 LLM 生成初稿。
-
Day30:總結、展示資料整理、產出最終 1–2 頁摘要與改進方向。
2) 主要成果與程式 / 報告成果(可直接附上或提交)
-
每日 30 篇 100 字心得(學習軌跡、反思)。
-
Lab 證據集:XSS / SQLi / CSRF 測試截圖與對應 request/response(去識別化)。
-
逆向 / 靜動態分析資料:sample binary 的 strings、反編譯片段、strace / pcap 擷取片段、IOC 清單。
-
Crypto 解題日誌:包含凱薩暴力腳本、RSA 嘗試程式片段與最終 flag(教學題)。
-
自動化工具:
-
pipeline.py:log → IOC 提取 → prompt 組成 → LLM 分析(含 needs_review 標示)。
-
parser.py:Apache access log 解析器,輸出 JSON 報表(top IP/URL、anomalies)。
- 其他小工具:封包抽取指令、curl 重放指令集合、pwntools exploit 範本(測試用)。
-
報告與摘要:Day29 初稿與 Day30 最終 1–2 頁展示摘要(可供投稿或口頭展示)。
-
Rules of Engagement(ROE)與 AI 使用守則:測試授權、隔離環境、審核流程文件。
-
SIEM / EDR 偵測規則草案:大量 404 掃描、暴力登入偵測、dropper 行為偵測等範例(可轉 Splunk/Elastic)。
-
交互紀錄:與 LLM 的 prompt / 回覆記錄(重要進度與決策參考)。
3) 技術心得與改進建議(具體可執行)
技術心得(重點)
-
AI 作為助理:LLM 非常適合做「摘要、格式化、生成範本與測試想法」,能顯著加速資料整理與初步分析。
-
不可盲信:AI 會有幻覺或過度自信的答案,尤其在細節(CVE 編號、 exploit 指令、數值計算)上要以工具/文件核實。
-
自動化 → 審核並行:把可重複工作交給工具與 AI,但對高風險輸出(可執行指令、刪除、網路操作)必須設置人工審核閘。
-
隔離環境是關鍵:所有可能有攻擊性或未知二進位的測試應在離線、snapshot-able VM 或 Docker(localhost 綁定)中執行。
-
紀錄與可復現性:保存原始 request/response、script、logs 與 hash,是日後驗證與報告可信度的基礎。
改進建議(短期可執行)
-
建立版本化專案倉庫:把所有程式、logs(去識別化)、報告上傳到 private Git(含 README 與執行流程)。
-
測試自動化 + CI:為 parser 與 pipeline 增加單元測試、範例資料與 CI(例如 GitHub Actions 本地 runner)以確保可重現。
-
LLM Prompt 標準化檔:把常用 prompt 建成模板庫(分類:Web、Binary、Logs、Crypto)並記錄最佳化範例。
-
偵測規則上線化:將 2–3 條高價值規則(大量 404、暴力登入、dropper 行為)轉為 Splunk/Elastic 查詢並在測試資料上驗證誤報率。
-
建立審核流程:當 pipeline 識別
needs_review 時,觸發 Slack/Email 告警並要求人工核准後才執行任何變更。
-
製作展示資產:把重要成果(3–5 張關鍵截圖、1 個 demo 短影片、1–2 頁摘要)整理成可投投稿或口頭報告資料包。
4) 最終 1–2 頁展示摘要(可直接印出 / 投稿用)
以下為可直接放在報告封面後或作為口頭展示的 1–2 頁摘要,包含背景、方法、成果重點與結論建議。
專案名稱
30 天 AI 輔助資安學習計畫 — 實作與自動化流水線
背景與目的(1 段)
本計畫在 30 天內結合生成式 AI(LLM)與實務資安工具,達成「快速學習、實作驗證與成果自動化整理」的目標。透過每日主題式學習與 lab 實作,建立從漏洞測試、密碼學練習、惡意程式分析到日誌偵測的端到端能力,並以 AI 輔助加速流程與報告產出,同時設計嚴謹的審核與 ROE 以避免安全風險。
方法與流程(要點)
- 每日學習:以 OWASP、MITRE、逆向、動態分析、Pwn、Crypto 與日誌分析為主題,並在隔離 lab 中驗證。
- AI 協作:使用 LLM 產生 prompt、整理分析重點、生成報告段落與提供程式雛形;人工負責審核與測試。
- 自動化:開發
parser.py 與 pipeline.py,將日誌/封包輸入轉成 JSON 報表並由 LLM 給予初步風險分級。
- 安全管控:ROE、VM 快照、輸入去識別化、
needs_review 流程確保不直接執行高風險操作。
主要成果(精選)
- 可重現的 lab 證據:XSS、SQLi 測試截圖與 request/response。
- 自動化工具:log parser(JSON 輸出)、LLM 分析 pipeline(report.json)。
- 技術文件:30 篇每日心得、CVE/IOC 摘要、SIEM 規則草案。
- 最終報告:1–2 頁展示摘要 + 完整技術附錄(程式、截圖、logs)。
成果影響與應用價值
-
教學:可作為資安入門課程的實作範例,示範如何結合 AI 加速學習與報告撰寫。
-
運維:parser + LLM pipeline 能快速協助篩選疑似事件、生成初步處理建議,節省人力。
-
研究:紀錄了 LLM 在分析流程的優缺點,可作為後續工具化與信任度評估的實驗基礎。
主要結論與建議(結語)
生成式 AI 在資安學習與初步分析上具高效率與輔助價值,但不得取代人工判斷。建議將成熟的自動化模組與 LLM 輸出納入半自動化流程,所有高風險建議需人工審核,並持續建立 prompt 標準化、測試套件與審核流程,以確保實務運用的可信度與安全性。
今天完成最後一天的學習與總結,將 30 天的 AI 輔助資安實作、漏洞測試、日誌分析與自動化腳本整合成完整報告與展示摘要。透過 AI 生成文本與人工審核,我快速整理出每日重點與成果,也回顧了自我學習流程與安全意識。整個過程讓我體會 AI 在學習、分析與報告整理的強大輔助作用,但人工判斷仍不可或缺。